-
1 discret
discret, -ète [diskʀε, εt]adjective* * *- ète diskʀɛ, ɛt adjectif1) ( qu'on remarque peu) [personne] unassuming; [vêtement, couleur] sober; [allusion, charme, maquillage] subtle; [éclairage] subdued; [sourire, signe, surveillance, parfum, bijou] discreet; [lieu] quiet2) ( qui garde les secrets) discreet ( sur about)3) ( qui n'est pas curieux) not inquisitive* * *diskʀɛ, ɛt adj (-ète)1) (personne) discreet* * *1 ( qu'on remarque peu) [personne] unassuming; [vêtement, couleur] sober; [allusion, charme, maquillage] subtle; [éclairage] subdued; [sourire, signe, surveillance, parfum, bijou] discreet; [lieu] quiet;2 ( qui garde les secrets) discreet (sur about);3 ( qui n'est pas curieux) not inquisitive;( féminin discrète) [diskrɛ, ɛt] adjectifde manière discrète tactfully, discreetly3. [qui sait garder un secret] discreet4. [dissimulé]
См. также в других словарях:
Chaîne de Markov à espace d'états discret — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Propriete markovienne — Propriété de Markov En probabilité un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donné les états passés et l état présent, ne dépend en fait que… … Wikipédia en Français
Propriété de Markov — En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donné les états passés et l état présent, ne dépend en fait que de l état présent et … Wikipédia en Français
Propriété markovienne — Propriété de Markov En probabilité un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donné les états passés et l état présent, ne dépend en fait que… … Wikipédia en Français
Chaine De Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaine de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaine de markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaîne De Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… … Wikipédia en Français
Chaîne de Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… … Wikipédia en Français
Chaîne de markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… … Wikipédia en Français
Chaînes de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français